|
|
|
|
|
3.2 Weiterentwicklung des Konzepts
|
|
|
Im Moment arbeitet factline daran, dieses Konzept über den FCS hinaus nutzbar zu
machen: User sollen für ein beliebiges Dokument, auf das verwiesen werden soll, eine
factID beantragen können, das Dokument wird in einer Datenbank abgelegt, auf die
bei Bedarf zurückgegriffen werden kann. Zu diskutierende Eckpunkte:
- Archivierung:
Für die Langzeitarchivierung von mehr als 500 Jahre alten Printdokumenten verfügen
Bibliotheken seit langem über taugliche Methoden, wesentlich schwieriger
ist es, digitale Daten zugänglich zu halten. Voraussetzungen:
- genügend Speicherplatz (nicht kostenkritisch, solange es um reine Texte geht)
- Konvertierbarkeit von Dateiformaten (wichtig: offener Standard)
- Kompatibilität von Speichermedien
- Retrieval:
Drei Möglichkeiten, auf "TOP-publizierte" Informationen zuzugreifen:
- Benutzer folgt einem Link oder stößt beim Browsen auf die Information
- Aufruf mittels der bekannten factID über ein Trustcenter
(der Benutzer weiß bereits, was er eigentlich sucht)
- Aufruf über eine Suchabfrage (Benutzer sucht nach hilfreicher Information)
Der dritte Fall stellt an TOP die größte Herausforderung: Sinnvolle Suchabfragen
erfordern den Einsatz von Ontologien, "intelligent indexing", Rating (Grad der
Vernetzung) etc. Außerdem sollen Bewertungssysteme (wie hilfreich war die
Information, wie hilfreich war die Bewertung) integriert werden.
- Einspeisen von Information:
Um die unter "Retrieval" geschilderten Suchanforderungen umsetzen zu können,
müssen folgende Voraussetzungen beim Einspeisen erfüllt werden:
- Information und Autor müssen authentifiziert werden (digitale Signatur)
- sinnvolle Beschlagwortung (Metadaten (Standard: Dublin Core))
Falls zudem die Nutzergruppe der Zitierenden Zielgruppe sein soll, muß es ein
umsetzbares Modell geben, das die Urheberrechte der Information wahrt.
- Berechtigungen:
Für online publizierte Information soll die Möglichkeit bestehen, zu definieren,
welche Benutzergruppen leseberechtigt sind. Dies wird für jede Informationseinheit
in den Metadaten festgehalten. Nach der Publikation kann der Benutzerkreis
zwar noch erweitert, aber nicht weiter eingeschränkt werden: Dahinter steht die
Überlegung, daß jede Information nach ihrer Publikation Teil des persönlichen
Wissensnetzwerkes der Zitierenden ist.
- Urheberrecht:
Will der Autor Information selbst verfügbar machen, können urheberrechtliche
Fragen direkt geklärt werden. Weit schwieriger ist die Abspeicherung von Informationen
auf Anfrage des Zitierenden, da in diesem Fall Urheber und/oder Rechteinhaber
nicht in den Prozess involviert ist. Die Rechtslage ist international noch
weitgehend ungeklärt, zahlreiche Anwendungsbeipiele zeigen jedoch, daß die
Archivierung fremder Information bereits praktiziert wird und urheberrechtliche
Fragen den Betrieb offensichtlich nur wenig stören. Beispiele:
- Google ( www.google.com) erstellt und speichert "Schnappschüsse" von jeder
untersuchten Seite. Der User kann direkt auf den "Cached"-Link zugreifen,
wenn der Originallink nicht (mehr) verfügbar ist. Anfang Anfang 2001
macht Google zudem das von Deja.com übernommene Usenet-Archiv mit
mehr als 500 Mio. Newsgroup-Postings seit 1995 zugänglich.
- Das Non-Profit-Projekt "The Internet Archive" ( www.archive.org) speichert
seit 1996 in regelmässigen Abständen Schnappschüsse aller öffentlich
zugänglichen Websites ab (seit Ende Oktober öffentlich zugänglich).
Zu diesen Punkten möchte ich unsere Überlegungen zur Diskussion stellen.
Vollständiger Artikel zum Download:
True Online Publishing (PDF, 20kB)
|
|
|
|
|